【log收集】:
机器名称 服务名称 用户
flume-agent-01: namenode hdfs
flume-agent-02: datanode hdfs
flume-agent-03: datanode hdfs
【log聚合】:
机器名称 用户
sht-sgmhadoopcm-01(172.16.101.54) root
【sink到hdfs】:
hdfs://172.16.101.56:8020/testwjp/
1.下载apache-flume-1.7.0-bin.tar.gz
1 | [hdfs@flume-agent-01 tmp]$ wget http://www-eu.apache.org/dist/flume/1.7.0/apache-flume-1.7.0-bin.tar.gz |
2.解压重命名
1 | [hdfs@flume-agent-01 tmp]$ |
3.拷贝flume环境配置和agent配置文件
1 | [hdfs@flume-agent-01 tmp]$ cp flume-env.sh.template flume-env.sh |
4.添加hdfs用户的环境变量文件
1 | [hdfs@flume-agent-01 tmp]$ cd |
5.添加flume的环境变量
1 | [hdfs@flume-agent-01 ~]$ vi .bash_profile |
6.修改flume环境配置文件
1 | [hdfs@flume-agent-01 conf]$ vi flume-env.sh |
7.将基于Flume-ng Exec Source开发自定义插件AdvancedExecSource的AdvancedExecSource.jar包上传到$FLUME_HOME/lib/
1 | http://blog.itpub.net/30089851/viewspace-2131995/ |
1 | [hdfs@LogshedNameNodeLogcollector lib]$ pwd |
8.修改flume的agent配置文件
1 | [hdfs@flume-agent-01 conf]$ vi exec_memory_avro.properties |
9.将flume-agent-01的flume-ng打包,scp到flume-agent-02/03 和 sht-sgmhadoopcm-01(172.16.101.54)
1 | [hdfs@flume-agent-01 tmp]$ zip -r flume-ng.zip flume-ng/* |
10.在flume-agent-02配置hdfs用户环境变量和解压,修改agent配置文件
1 | [hdfs@flume-agent-02 ~]$ cp /etc/skel/.* ./ |
11.在flume-agent-03配置hdfs用户环境变量和解压,修改agent配置文件
1 | [hdfs@flume-agent-03 ~]$ cp /etc/skel/.* ./ |
12.聚合端 sht-sgmhadoopcm-01,配置root用户环境变量和解压,修改agent配置文件
1 | [root@sht-sgmhadoopcm-01 tmp]# vi /etc/profile |
13.后台启动
1 | [root@sht-sgmhadoopcm-01 flume-ng]# source /etc/profile |
14.校验:将集群的日志下载到本地,打开查看即可(略)
1 | ------------------------------------------------------------------------------------------------------------------------------------------------ |